人工智能招聘人员加入求职行列。他们在帮助谁?

小型初创公司和大型专业平台正在使用人工智能来寻找和招聘新员工——但这些工具可能会加剧偏见

Digital hands manipulating a man in a suit with digital puppet strings

Moor Studio/盖蒂图片社

西雅图的用户体验顾问托里·波德马杰斯基在 1 月份收到了一封来自名为珍妮·约翰逊的招聘人员的陌生电子邮件。该邮件称约翰逊为波德马杰斯基创建了一个职业档案,并推荐了一些匹配的职位空缺,但该档案过于宽泛,遗漏了她职业生涯中的几个重要部分。波德马杰斯基原本没有找工作的打算,她认为这可能是个骗局

直到她滚动到邮件底部,才发现约翰逊甚至不是真人。这封电子邮件来自一个人工智能机器人;其背后的公司将其描述为“精英职业教练的人工智能代表”。波德马杰斯基回忆说:“我感到胃部一阵恶心,因为我意识到它的目的是让人感到被关注、特别、被关心、被支持——而这一切都是谎言。”

纽约州奥尔巴尼的一位退休销售和营销主管道格拉斯·汉密尔顿也收到了一封珍妮·约翰逊的电子邮件。“角色不对,行业不对,级别不对,”汉密尔顿谈到机器人的职位摘要时说。他打开这封邮件是因为招聘人员的头像,这在招聘邮件中很不寻常,引起了他的注意。那张照片也是人工生成的。


关于支持科学新闻

如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻报道 订阅。通过购买订阅,您将有助于确保有关当今塑造我们世界的发现和想法的有影响力的故事的未来。


珍妮·约翰逊机器人是生成式人工智能公司 Hyperleap 开发的工具的一部分,在过去的几个月中,它已向许多专业人士发送了未经请求的电子邮件。这只是招聘平台(从小型的初创公司到领英)越来越多地使用人工智能来寻找、筛选和招聘新员工的一个例子。随着这些工具变得更加复杂,专家们担心它们可能会使求职者在就业市场上更感到非人化,并可能加剧现有的偏见。

位于犹他州帕克城的 Hyperleap 创建了 珍妮·约翰逊,作为一种在线求职工具,它向注册该服务的用户发送自动职位摘要。该公司首席运营官凯文·霍尔伯特表示,该人工智能系统会搜索在线招聘网站和企业网站,以构建可搜索的数据库。然后,它会梳理一个人的领英个人资料、简历和工作经历,并将这些信息与其数据库进行匹配,以推荐机会。

虽然任何人都可以注册该服务,但据霍尔伯特称,像波德马杰斯基和汉密尔顿这样的人是在 Hyperleap 与一家求职平台合作,早期获取新用户活动期间收到未经请求的电子邮件的。他说,任何在该平台上注册的人也会收到珍妮·约翰逊机器人的警报,尽管波德马杰斯基和汉密尔顿都不记得在那段时间注册过任何求职平台。霍尔伯特说,该公司此后“停止了这种合作关系”。“我们正在继续清理我们的列表[并]删除任何不参与的用户。”

像珍妮·约翰逊这样的服务是招聘人员十多年来一直在使用的自动化技术的自然扩展。人力资源管理协会 (SHRM) 的雷根·格罗斯表示,这包括筛选简历关键字的应聘者跟踪软件,他向人力资源专业人士提供有关招聘实践的建议。超过 97% 的财富 500 强公司已经依赖此类工具来筛选应聘者。SHRM 的一项2022 年调查发现,42% 的接受调查的 5,000 名或以上员工的组织报告说在与人力资源相关的活动(包括招聘和雇用)中使用自动化或人工智能。

格罗斯认为其中一些工具有潜在的好处,但表示它们有其局限性。例如,虽然人工智能应用程序可以帮助完成诸如总结应聘者技能之类的基本任务,但它们还不能捕捉到对招聘人员来说重要的个性和独特特征。格罗斯预测,人工智能的广泛使用将迫使求职者“找到[新的]方式来脱颖而出。”

人工智能应用程序正在稳步地自动化越来越多的招聘流程。例如,像珍妮·约翰逊一样,领英等大型平台现在可以自动将候选人的工作经验和技能与现有职位匹配。包括 ZipRecruiter 在内的一些公司还提供拟人化的聊天机器人,这些机器人可以回复有关列出职位的查询、联系潜在候选人并进行性格评估。新的生成式人工智能甚至可以让雇主将招聘流程的整个部分外包给算法,包括搜索候选人和进行预先编程的面试

霍尔伯特说,Hyperleap 为其人工智能构建了一个人类角色,以使其“更贴近人”,以便人们“表现得更自然”。英格兰苏塞克斯大学商学院研究组织行为的扎希拉·贾瑟说,自动化招聘流程中的不明确可能会产生相反的效果。

贾瑟认为,不确定一个人是否在与人打交道会影响候选人在招聘过程中的表现,并且还会阻止招聘人员准确了解候选人的正常行为。在对基于人工智能的面试的研究中,贾瑟发现,如果应聘者认为他们正在与在线机器人而不是人交谈,他们通常会表现得不太自然;例如,他们往往会一直盯着屏幕,避免移动手。

贾瑟的研究还表明,基于人工智能的面试经常会惩罚第一代毕业生、带有口音或来自不太优越背景的候选人。贾瑟补充说,如果没有足够的人工监督,这些基于人工智能的招聘系统可能会加剧现有的偏见。“从成本控制的角度来看,采用这类系统可能很棒,但如果不加以控制,可能会造成多样性和包容性问题,”她说。

人工智能招聘工具的开发人员经常说,他们的算法有可能比人类更客观——如果这些工具是在足够包容和多样化的数据上训练的。但剑桥大学的人工智能伦理研究员埃莉诺·德雷奇说,这些说法具有误导性,并且表明对偏见如何在现实世界中运作缺乏了解。

德雷奇说,由于基于人工智能的招聘系统是在过去的招聘趋势和实践上训练的,而这些趋势和实践经常被发现是有偏见和歧视性的,它们将不可避免地通过构建词语之间的联系来重复相同的模式——即使公司明确排除了种族和性别等因素。

贾瑟说,尽管现在围绕这些人工智能招聘工具的炒作很高,但许多人力资源部门正在等待它们证明其功效,然后才采用它们。她补充说,希望除非它们被证明是有用、公平和可靠的,否则不会被大规模采用。

© . All rights reserved.